Deine Aufgaben Entwicklung, Anpassung und Migration von Datenquellen in BI- und Data-Warehouse-SystemenBetrieb, Konfiguration und Weiterentwicklung von Oracle Data Integrator (ODI)Unterstützung bei der Fehlerbehebung und ProduktbetreuungErstellung von Reports und Analyse-Lösungen mit Oracle Analytics Server / PublisherMitwirkung an Projekten in den Bereichen Controlling, Reporting und Datenanalyse Dein Skill-Profil Erfahrung im BI- und Data-Warehouse-UmfeldSehr gute Kenntnisse in Oracle Data Integrator (ODI) inklusive ProduktionsbetriebFundierte Kenntnisse in SQL / PL-SQLErfahrung mit Oracle-Datenbanken und LinuxIdealerweise Kenntnisse in Data-Lakehouse-Konzepten und analytischen ProjektenDeutschkenntnisse auf Niveau C1 Deine Vorteile bei uns Mobiles Arbeiten: Je nach Projekt ist mobiles Arbeiten nach Absprache bei uns möglich.Familienfreundlichkeit: Wir stocken Dein Gehalt bei Erkrankung Deines Kindes auf 100% auf.
Fachinformatiker (m/w/d)) oder abgeschlossenes Studium im Bereich Informatik oder einer vergleichbaren Fachrichtung Mindestens 3 Jahre Berufserfahrung als Data Engineer / Data Warehouse & BI Specialist (m/w/d) Erste praktische Erfahrung in BI- und/oder Data-Warehouse-Projekten sowie im Umgang mit ETL-Tools und SQL Fundierte Kenntnisse in der Datenbankmodellierung und -entwicklung; Python- Kenntnisse sind von Vorteil Ausgeprägtes Interesse an Digitalisierung, Datenarchitekturen und Transformationsprojekten in einem agilen Umfeld Sehr gute Deutsch-(mindestestens B2-Niveau) sowie gute Englischkenntnisse in Wort und Schrift Hohe Begeisterungsfähigkeit sowie Motivation, neue Themen aktiv voranzutreiben Ausgeprägte Teamfähigkeit, sicheres Auftreten und gute Umgangsformen Sehr gute Kommunikationsfähigkeit auf unterschiedlichen Ebenen Selbstständige, strukturierte und lösungsorientierte ArbeitsweiseEinen abwechslungsreichen und herausfordernden Arbeitsplatz mit spannenden Aufgaben Intensive und umfassende Einarbeitung, die individuell auf Sie ausgerichtet wird, um Ihnen den optimalen Start in Ihre neue Position zu ermöglichen Ein Unternehmen mit über 180-jähriger Erfolgsgeschichte in einer soliden und zukunftsorientierten Branche - die Edelmetallbranche.
Develop, maintain, and optimize data pipelines and ETL/ELT processes using DatabricksImplement version control workflows and collaborate using GitHubBuild and maintain CI/CD pipelines with GitHub ActionsDesign and implement scalable data transformations using Python/PySparkWrite efficient and reliable SQL queries for data processing and analytics Strong hands-on experience with Databricks and strong SQL skillsProficiency with GitHub for version control and collaborationExperience building CI/CD pipelines, ideally with GitHub Actions and solid knowledge of Python/PySparkExperience with Microsoft Azure and knowledge of Data Vault data modeling is an advantageExperience with Kafka or other streaming technologies is an advantageUnderstanding of Unity Catalog for data governance is an advantageExperience with Splunk for monitoring and troubleshooting is an advantage Renowned clientRemote work possible Ihr Kontakt Ansprechpartner Florian Pracher Referenznummer 863468/1 Kontakt aufnehmen E-Mail: florian.pracher@hays.at Anstellungsart Freiberuflich für ein Projekt
Develop, maintain, and optimize data pipelines and ETL/ELT processes using Databricks Implement version control workflows and collaborate using GitHub Build and maintain CI/CD pipelines with GitHub Actions Design and implement scalable data transformations using Python/PySpark Write efficient and reliable SQL queries for data processing and analytics Strong hands-on experience with Databricks and strong SQL skills Proficiency with GitHub for version control and collaboration Experience building CI/CD pipelines, ideally with GitHub Actions and solid knowledge of Python/PySpark Experience with Microsoft Azure and knowledge of Data Vault data modeling is an advantage Experience with Kafka or other streaming technologies is an advantage Understanding of Unity Catalog for data governance is an advantage Experience with Splunk for monitoring and troubleshooting is an advantage Renowned client Remote work possible Ihr Kontakt Ansprechpartner Florian Pracher Referenznummer 863468/1 Kontakt aufnehmen E-Mail: florian.pracher@hays.at Anstellungsart Freiberuflich für ein Projekt
MID – Driving Continuous Transformation Für spannende Projekteinsätze bei unseren Kunden suchen wir erfahrene Consultants mit BI Expertise.In Deiner Position als Senior Consultant Data Warehouse / Senior Data Analyst erwarten Dich abwechslungsreiche und anspruchsvolle Tätigkeiten entlang des gesamten Prozesses der Softwareentwicklung in Projekteinsätzen bei unseren KundenEigenverantwortlich stimmst Du die unterschiedlichen Anforderungsspezifikationen mit unseren Kunden und Fachabteilungen ab, analysierst und konzipierst die Datenaufbereitungsprozesse von der Schnittstelle bis hin zur KennzahlDabei beschäftigst Du Dich mit der Entwicklung/Aufbau von relationalen und multidimensionalen Datenbanken mit dem Ziel eines einheitlichen DatenbestandesDu optimierst bestehende Systemlösungen im Kontext Data WarehouseDu gestaltest die Architektur und das Design des Data Warehouse und entwickelst moderne Lösungen für ein Datenmodell.Du hast ein Studium im Bereich (Wirtschafts-)Informatik oder einem anderen Studiengang mit IT und/oder Informatik Fokus abgeschlossen, alternativ verfügst du über eine vergleichbare Qualifikation mit entsprechender IT-Affinität und bestenfalls Bezug zu ControllingDu bringst mindestens 5 Jahre Berufserfahrung in agilen Business Intelligence- oder in Data Warehouse-Projekten mit und bist dabei mit der Umsetzung von DSGVO-konformen DWH-Lösungen in Berührung gekommen.Du verfügst über Berufserfahrung im Design von ETL-Prozessen und Datenstrukturen, insbesondere im Umgang mit sehr großen Datenmengen und bist sicher im Umgang mit SQLMehrjährige Erfahrung in der Konzeption von ETL/ELT-Prozessen sowie ein Bewusstsein für DWH-Architekturen zeichnen dich aus.Du bringst Erfahrung in der Gestaltung von Schnittstellen zum DWH mit und hast bestenfalls bereits eventbasierte Schnittstellen mit Apache Kafka designt.Du überzeugst uns mit konzeptionellen Fähigkeiten und einem prozessualen und analytischen Denkvermögen und verfügst über verhandlungssichere Deutschkenntnisse.
Ihre zukünftigen Aufgaben: Aufbau und Weiterentwicklung moderner Data-Warehouse- und Data-Lakehouse-ArchitekturenImplementierung und Weiterentwicklung von Datenmodellen nach etablierten Modellierungsansätzen wie Data Vault oder Star SchemaIntegration, Transformation und Aufbereitung von Daten für Analyse- und ReportingzweckeEnge Abstimmung mit Fachbereichen und Data Scientists zur Sicherstellung konsistenter und belastbarer DatenstrukturenMitwirkung an Architekturentscheidungen und Definition von Best Practices innerhalb der Inhouse-IT-Landschaft Das bringen Sie mit: Abgeschlossene Ausbildung oder Studium im Bereich Informatik, Wirtschaftsinformatik, Data Science, Mathematik oder einer vergleichbaren FachrichtungMindestens fünf Jahre fundierte Erfahrung im Data Modelling sowie mindestens drei Jahre praktische Erfahrung im Aufbau und Betrieb von Data-Lakehouse-ArchitekturenSehr gute Kenntnisse in der Arbeit mit Snowflake als Data-Warehouse-LösungErfahrung mit Qlik Sense im Bereich Visualisierung, Datenanalyse und ReportingHohe Lernbereitschaft und Fähigkeit zur schnellen Einarbeitung in neue Technologien und Trends der DatenverarbeitungSelbstständige und analytische Arbeitsweise sowie eine ausgeprägte TeamfähigkeitSehr gute Deutschkenntnisse in Wort und Schrift Ihre Vorteile in einer Festanstellung bei der Tempton Next Level Experts: Ein unbefristeter ArbeitsvertragSicherer Job mit spannenden Projekten bei Top-UnternehmenBezahlung mindestens nach GVP/DGB-TarifvertragUrlaubs- und Weihnachtsgeld plus vermögenswirksame LeistungenBis zu 30 Tage UrlaubExklusive Mitarbeiterrabatte bei zahlreichen namhaften MarkenSpannende Einblicke und verantwortungsvolle AufgabenIndividuelle Betreuung und aktive KarrierebegleitungPersönliches Onboarding und regelmäßige Feedback-Gespräche Haben Sie noch Fragen?
Ihre zukünftigen Aufgaben: Aufbau und Weiterentwicklung moderner Data-Warehouse- und Data-Lakehouse-ArchitekturenImplementierung und Weiterentwicklung von Datenmodellen nach etablierten Modellierungsansätzen wie Data Vault oder Star SchemaIntegration, Transformation und Aufbereitung von Daten für Analyse- und ReportingzweckeEnge Abstimmung mit Fachbereichen und Data Scientists zur Sicherstellung konsistenter und belastbarer DatenstrukturenMitwirkung an Architekturentscheidungen und Definition von Best Practices innerhalb der Inhouse-IT-Landschaft Das bringen Sie mit: Abgeschlossene Ausbildung oder Studium im Bereich Informatik, Wirtschaftsinformatik, Data Science, Mathematik oder einer vergleichbaren FachrichtungMindestens fünf Jahre fundierte Erfahrung im Data Modelling sowie mindestens drei Jahre praktische Erfahrung im Aufbau und Betrieb von Data-Lakehouse-ArchitekturenSehr gute Kenntnisse in der Arbeit mit Snowflake als Data-Warehouse-LösungErfahrung mit Qlik Sense im Bereich Visualisierung, Datenanalyse und ReportingHohe Lernbereitschaft und Fähigkeit zur schnellen Einarbeitung in neue Technologien und Trends der DatenverarbeitungSelbstständige und analytische Arbeitsweise sowie eine ausgeprägte TeamfähigkeitSehr gute Deutschkenntnisse in Wort und Schrift Ihre Vorteile in einer Festanstellung bei der Tempton Next Level Experts: Ein unbefristeter ArbeitsvertragSicherer Job mit spannenden Projekten bei Top-UnternehmenBezahlung mindestens nach GVP/DGB-TarifvertragUrlaubs- und Weihnachtsgeld plus vermögenswirksame LeistungenBis zu 30 Tage UrlaubExklusive Mitarbeiterrabatte bei zahlreichen namhaften MarkenSpannende Einblicke und verantwortungsvolle AufgabenIndividuelle Betreuung und aktive KarrierebegleitungPersönliches Onboarding und regelmäßige Feedback-Gespräche Haben Sie noch Fragen?
Manage and refine business and technical requirements in collaboration with stakeholdersCoordinate data integration activities with various source systemsDesign and model data structures within a Data Warehouse environment, with a strong focus on Data Vault methodologyDevelop and optimize data pipelines using SQL and PythonWork with tools like Databricks and dbt to build scalable data transformation workflowsEnsure data quality, consistency, and compliance, especially within banking-related use cases Experience in requirements managementExperience in coordination with source systemsExperience with data modeling in a Data Warehouse environment: Focus on Data VaultGood German and English language skillsDatabricks experience is nice to haveExperience with dbt (data build tool) is an advantageExperience with SQL (as a query language) and Python is an advantageBanking experience is an advantage Renowned clientRemote work Ihr Kontakt Ansprechpartner Florian Pracher Referenznummer 863466/1 Kontakt aufnehmen E-Mail: florian.pracher@hays.at Anstellungsart Freiberuflich für ein Projekt
Manage and refine business and technical requirements in collaboration with stakeholders Coordinate data integration activities with various source systems Design and model data structures within a Data Warehouse environment, with a strong focus on Data Vault methodology Develop and optimize data pipelines using SQL and Python Work with tools like Databricks and dbt to build scalable data transformation workflows Ensure data quality, consistency, and compliance, especially within banking-related use cases Experience in requirements management Experience in coordination with source systems Experience with data modeling in a Data Warehouse environment: Focus on Data Vault Good German and English language skills Databricks experience is nice to have Experience with dbt (data build tool) is an advantage Experience with SQL (as a query language) and Python is an advantage Banking experience is an advantage Renowned client Remote work Ihr Kontakt Ansprechpartner Florian Pracher Referenznummer 863466/1 Kontakt aufnehmen E-Mail: florian.pracher@hays.at Anstellungsart Freiberuflich für ein Projekt
Support procurement activities for the Region and ensure data quality in SAPIssue Purchase Orders for generic procurementsCreate and manage of RFx purchasing activitiesManagement and coordination of Transportation and related documentationCoordination of export control date packages for the shipmentSupport warehousing activities and general documentation Support procurement activities for the Region and ensure data quality in SAPIssue Purchase Orders for generic procurementsCreate and manage of RFx purchasing activitiesManagement and coordination of Transportation and related documentationCoordination of export control date packages for the shipmentSupport warehousing activities and general documentation International working environmentInteresting tasks in a multinational environment Ihr Kontakt Referenznummer 861823/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
Ihre Aufgaben Konzeptionierung und Erstellung von Reportings und Analysen für interne und externe Kunden des Kundenservice Umsetzung von Report- und Analyseanforderungen auf Basis der Data Warehouses Unterstützung in der Konzeptionierung und Weiterentwicklung des Kundenservice P&P eigenen Data Warehouses Durchführung von Projekten zur Optimierung des Reportings und der Analysefähigkeiten im Kundenservice P&P Ihr Profil Fachanforderungen Abgeschlossenes Studium der Statistik, Mathematik, Informatik, Wirtschaftswissenschaften oder vergleichbare Studienausrichtung Mehrjährige Berufserfahrung in einer vergleichbaren Tätigkeit Erfahrungen aus der Customer Contact Center Branche und im Projektmanagement sind wünschenswert Ausgeprägte konzeptionelle Fähigkeiten in Kombination mit einer hohen Zahlenaffinität Fundierte Kenntnisse der MS Office Standardsoftware (insbesondere Excel, Access und PowerPoint) Fundierte Kenntnisse in Microsoft BI Produkten (z.B.
Bei PROGNUM sind wir als etablierter Ingenieur- und Beratungsdienstleister darauf spezialisiert, in vielseitigen Automotive-Projekten neue Maßstäbe zu setzen. Wir arbeiten an den wegweisenden Technologien von morgen – sei es im autonomen Fahren, Elektromobilität, Connectivity, Infotainment oder darüber hinaus.
Deine Aufgaben: Unterstützung bei der Sicherstellung der technischen Funktionalität des WMS und der LagerinfrastrukturMitarbeit beim Troubleshooting sowie bei der Erstellung und Nachverfolgung von TicketsDurchführung einfacher Tests und Unterstützung bei der Einführung neuer FunktionenDokumentation und Unterstützung bei der Schulung von End-UsernErster Ansprechpartner für First-Level-Support bei technischen ProblemenUnterstützung bei KPI-Tracking und Reporting sowie im LadungsträgermanagementEinbindung in kleinere Projekte und Prozessverbesserungen unter AnleitungMitarbeit im Tagesgeschäft bei Bedarf Dein Profil: Abgeschlossene Ausbildung oder Bachelor im Bereich Logistik, IT oder einem verwandten FeldGrundkenntnisse in WMS, SAP und technischer InfrastrukturGute Kommunikationsfähigkeit und TeamgeistHands-On-Mentalität, erste Erfahrung im Troubleshooting von Vorteil Deine Vorteile bei Younivers: Attraktive Entlohnung: Übertarifliches Stundenentgelt zwischen 20,00 € und 23,00 € brutto pro Stunde, abhängig von Qualifikation und Erfahrung500 Euro Einstellungsprämie: Zum Start deiner Tätigkeit erhältst du eine Prämie in Höhe von 500 € bruttoUrlaubs- und Weihnachtsgeld: Du erhältst tariflich geregeltes Urlaubs- und Weihnachtsgeld entsprechend dem DGB/GVP-Tarifvertrag Fahrtkostenzuschuss & Jobticket: Je nach Entfernung unterstützen wir dich bei deinen Fahrtkosten auch mit einem Ticket für den öffentlichen Nahverkehr Kostenlose Arbeitskleidung: Wir stellen dir alle benötigten Arbeitskleidungen kostenfrei zur Verfügung500 Euro Prämie - Mitarbeiter werben Mitarbeiter: Kennst du jemanden, der zu uns passt?
Deine Aufgaben: Verantwortung für die technische Funktionsfähigkeit der gesamten Lager- und Materiallogistiksysteme, einschließlich WMS und InfrastrukturLeitung des Troubleshootings bei komplexen Problemen und Steuerung des Ticket-Prozesses bis zur LösungDurchführung und Überwachung umfassender Tests vor Systemanpassungen und NeueinführungenErstellung von Schulungskonzepten und Durchführung von Trainings für End-UserEskalationsmanagement und Koordination mit verschiedenen Abteilungen und externen DienstleisternLeitung und Organisation von Projekten, einschließlich der Implementierung neuer TechnologienAnalyse und Reporting von KPIs, Ableitung von Verbesserungsmaßnahmen. Optimierung von Prozessen und Einführung innovativer Lösungen in der MateriallogistikUnterstützung des Managements im Ladungsträgermanagement und strategischen Entscheidungen Dein Profil: Abgeschlossene Bachelor, Master, Meister oder Techniker mit Schwerpunkt Logistik, IT oder verwandten BereichenFundierte Kenntnisse in WMS, SAP und moderner LagertechnikMehrjährige Berufserfahrung, idealerweise in einer ähnlichen PositionExzellente Kommunikations- und Durchsetzungsfähigkeiten, gepaart mit FührungskompetenzenHohe Problemlösungs- und OrganisationsfähigkeitErfahrung im Projektmanagement und in der Prozessoptimierung Deine Vorteile bei Younivers: Attraktive Entlohnung: Übertarifliches Stundenentgelt zwischen 23,00 € und 28,50 € brutto pro Stunde, abhängig von Qualifikation und Erfahrung500 Euro Einstellungsprämie: Zum Start deiner Tätigkeit erhältst du eine Prämie in Höhe von 500 € bruttoUrlaubs- und Weihnachtsgeld: Du erhältst tariflich geregeltes Urlaubs- und Weihnachtsgeld entsprechend dem DGB/GVP-Tarifvertrag Fahrtkostenzuschuss & Jobticket: Je nach Entfernung unterstützen wir dich bei deinen Fahrtkosten auch mit einem Ticket für den öffentlichen Nahverkehr Kostenlose Arbeitskleidung: Wir stellen dir alle benötigten Arbeitskleidungen kostenfrei zur Verfügung500 Euro Prämie - Mitarbeiter werben Mitarbeiter: Kennst du jemanden, der zu uns passt?
Denn durch unsere intensiven Beziehungen und Netzwerke über alle Industriebranchen hinweg vermitteln wir Ihnen als Engineering-Fachleuten spannende Projekte und attraktive Positionen. Ganz nach Ihren Interessen und abhängig von Ihren Erfahrungen und Qualifikationen. Sie profitieren dabei von einer professionellen Betreuung von der ersten Ansprache bis zum Antritt Ihres neuen Projektes bzw.
Denn durch unsere intensiven Beziehungen und Netzwerke über alle Industriebranchen hinweg vermitteln wir Ihnen als Engineering-Fachleuten spannende Projekte und attraktive Positionen. Ganz nach Ihren Interessen und abhängig von Ihren Erfahrungen und Qualifikationen. Sie profitieren dabei von einer professionellen Betreuung von der ersten Ansprache bis zum Antritt Ihres neuen Projektes bzw.
Durch Fallstudien und empirische Untersuchungen werden praktische Erkenntnisse darüber gewonnen, wie Microsoft Fabric die Analyseprozesse in Unternehmen optimiert und den Übergang von beschreibenden zu vorhersagenden Erkenntnissen ermöglicht.Die Ergebnisse der Forschungsarbeit tragen dazu bei, die Eignung von Microsoft Fabric für den Einsatz in Produktionsumgebungen zu bewerten und geben einen Einblick in die zukünftige Entwicklung integrierter Big Data-Analyseplattformen.Du bist eingeschriebene:r Student:in (m/w/d) des Studiengangs Allgemeine Informatik, Wirtschaftsinformatik, Medieninformatik, Wirtschaftsingenieurwesen, Elektrotechnik, Maschinenbau, Mechatronik und digitale Produktion(oder vergleichbar)Individuelle Unterstützung: Ein/e dedizierte/r Betreuer:in an deiner Seite unterstützt dich bei deinem Projekt und steht für Fragen zur VerfügungNetworking: Bei uns kannst du dein berufliches Netzwerk ausbauen und wertvolle Kontakte innerhalb des Unternehmens knüpfen.
Mentoring- und Buddy-Angebote: Profitiere von persönlicher Förderung und Unterstützung, die Dich gezielt begleiten – beim Aufbau Deiner Kompetenzen und beim gemeinsamen Gestalten unserer Projekte. Zeit für berufliche und persönliche Entwicklung: Mithilfe unserer Grow your Talent Platform kannst Du Deine berufliche und persönliche Entwicklung auf das nächste Level heben und Deine fachlichen und persönlichen Kompetenzen gezielt weiterentwickeln.
Mentoring- und Buddy-Angebote : Profitiere von persönlicher Förderung und Unterstützung, die Dich gezielt begleiten – beim Aufbau Deiner Kompetenzen und beim gemeinsamen Gestalten unserer Projekte. Zeit für berufliche und persönliche Entwicklung: Mithilfe unserer Grow your Talent Platform kannst Du Deine berufliche und persönliche Entwicklung auf das nächste Level heben und Deine fachlichen und persönlichen Kompetenzen gezielt weiterentwickeln.
Designing and implementing the ETL pipeline and MongoDB scheme Managing the document database, data curation, and FAIRification (cleaning, parsing, disambiguation, deduplication, data harmonization etc.), including ongoing database maintenance Integrating new data sources, including the development of robust parsers and text cleaning workflows Enhancing the user experience (e.g., building a data warehouse and APIs) User support for utilizing RoMine datasets (documentation, training, use case support) Data engineering, data warehousing, and database experience Experience with NoSQL/MongoDB database Experience or knowledge of ETL orchestration tools, such as Airflow Good understanding in the area of Text Analytics/Mining, TDM, and LLMs Strong proficiency in Python scripting Internal career opportunities World-renowned pharmaceutical company Ihr Kontakt Referenznummer 864194/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
Designing and implementing the ETL pipeline and MongoDB schemeManaging the document database, data curation, and FAIRification (cleaning, parsing, disambiguation, deduplication, data harmonization etc.), including ongoing database maintenanceIntegrating new data sources, including the development of robust parsers and text cleaning workflowsEnhancing the user experience (e.g., building a data warehouse and APIs)User support for utilizing RoMine datasets (documentation, training, use case support) Data engineering, data warehousing, and database experienceExperience with NoSQL/MongoDB databaseExperience or knowledge of ETL orchestration tools, such as AirflowGood understanding in the area of Text Analytics/Mining, TDM, and LLMsStrong proficiency in Python scripting Internal career opportunities World-renowned pharmaceutical company Ihr Kontakt Referenznummer 864194/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
Oracle Data Integrator) gearbeitet und Daten modelliert; Idealerweise mit unserem Tool Innovator.Du willst Dein Wissen nachhaltig aufbauen, aktiv in einem Projekt mitwirken und verfügst über verhandlungssichere Deutschkenntnisse.Die Möglichkeit, Dich auf Basis Deiner Expertise und Talente auf den Einsatz in Kundenprojekten zu konzentrieren, oder ergänzend zu Kundenprojekten bei der Mitgestaltung unserer Zukunftsthemen sowie deren Marktdurchdringung zu unterstützen.Aktuell sind wir rund 170 MIDler:innen und wir wollen weiter wachsen.
Buchungen tätigen) Gute Deutschkenntnisse in Wort und Schrift Englischkenntnisse sowie ein Gabelstaplerschein sind von Vorteil Jährlicher Urlaubsanspruch von 30 Tagen Betreuung im gesamten Bewerbungsprozess Betreuung im laufenden Projekt durch unser Team Abwechslungsreiche Tätigkeit in einem renommierten Unternehmen Anspruchsvolle und abwechslungsreiche Aufgaben in einer zukunftsträchtigen und innovativen Branche Gehaltsinformationen 22,00 - 26,00 Ihr Kontakt Ansprechpartner Janine Reuter Referenznummer 862533/1 Kontakt aufnehmen Telefon:+49-(0)89-512669114 E-Mail: janine.reuter@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Buchungen tätigen)Gute Deutschkenntnisse in Wort und SchriftEnglischkenntnisse sowie ein Gabelstaplerschein sind von Vorteil Jährlicher Urlaubsanspruch von 30 TagenBetreuung im gesamten BewerbungsprozessBetreuung im laufenden Projekt durch unser TeamAbwechslungsreiche Tätigkeit in einem renommierten UnternehmenAnspruchsvolle und abwechslungsreiche Aufgaben in einer zukunftsträchtigen und innovativen Branche Gehaltsinformationen 22,00 - 26,00 Ihr Kontakt Ansprechpartner Janine Reuter Referenznummer 862533/1 Kontakt aufnehmen Telefon:+49-(0)89-512669114 E-Mail: janine.reuter@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Werden Sie Teil unseres Teams als Data Analyst (m/w/d) bei unserem Kunden Airbus in Donauwörth. Ihre Aufgaben: Leitung und Mitarbeit von Projekten im Bereich Digitalisierung und Datenanalyse Optimierung, Digitalisierung und Automatisierung der KPI-Landschaft Erstellung und Pflege von Berichten und Echtzeit-Dashboards Implementierung von Monitoringsystemen zur automatischen Abweichungsbenachrichtigung Erstellung von Best Practices und Dokumentationen im Datenmanagement Aktive Beteiligung an Verbesserungsprojekten, Umsetzung von AOS-Bricks und der EDD-Datenstrategie Koordination mit zentraler IT, „Methoden & Tools“ und externen Dienstleistern für Industrialisierung von Anwendungen (Spezifikationen, Tests, Datenprodukte) Organisation und Durchführung von Upskilling-Sessions zur Förderung von Datenkompetenzen Ihr Profil: Abgeschlossenes Studium (mind.
Terraform, und CI/CD-Workflows Tiefes Verständnis moderner Datenarchitekturen samt Data Lakes, Lakehouses, Warehouses sowie ETL-/ELT-Prozesse und Datenmodellierung Erfahrung im Umgang mit Cloud-Plattformen wie Azure, AWS, GCP und Tools wie Databricks oder Snowflake Sehr gutes Verständnis für Data Governance, Sicherheit und Datenschutz Idealerweise erste Erfahrung mit NLP-Anwendungen wie LLMs, RAG, Knowledge Graphs, Text-to-SQL Die Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermitteln Kommunikationsstärke auf Deutsch und Englisch Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze Entscheidungswege Weiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-Lösungen Engagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-Kultur Sehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches Equipment Flexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-Ausland Zuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 95.000 € p.a.
Terraform, und CI/CD-WorkflowsTiefes Verständnis moderner Datenarchitekturen samt Data Lakes, Lakehouses, Warehouses sowie ETL-/ELT-Prozesse und DatenmodellierungErfahrung im Umgang mit Cloud-Plattformen wie Azure, AWS, GCP und Tools wie Databricks oder SnowflakeSehr gutes Verständnis für Data Governance, Sicherheit und DatenschutzIdealerweise erste Erfahrung mit NLP-Anwendungen wie LLMs, RAG, Knowledge Graphs, Text-to-SQLDie Fähigkeit, komplexe Anforderungen in technische Lösungen zu übersetzen und auch Fachfremden sicher zu vermittelnKommunikationsstärke auf Deutsch und Englisch Eigenverantwortliches Arbeiten und Mitgestaltungsmöglichkeiten durch kurze EntscheidungswegeWeiterentwicklung durch Fokus auf Innovation: Die vielfältigen und abwechslungsreichen Projekte drehen sich um die Entwicklung intelligenter Algorithmen, datenbasierter Strategien und maßgeschneiderter KI-LösungenEngagiertes, dynamisches, konstruktives Team mit starkem Zusammenhalt und einer offenen Feedback-KulturSehr gut angebundene, moderne Räumlichkeiten und hochwertiges technisches EquipmentFlexibel planbarer remote-Anteil von bis zu 40%, sogar zweitweise aus dem EU-AuslandZuschuss zum Deutschland-Ticket, zu Sport- und Wellnessangeboten sowie zur Kinderbetreuung Gehaltsinformationen Erfahrungsabhängig bis zu 95.000 € p.a.
Sie mit Ihrer Leidenschaft für die Datenanalyse in Projekten bei großen, global agierenden Unternehmen Großes bewegen können es möglich ist, hier Ihre beste Version zu leben und es Spass macht, sich mit neuen Ideen einzubringen Sie hier den kreativen Freiraum erhalten, um innovativ wirken zu können Sie Vertrauensarbeitszeit haben, Sie hybrid arbeiten und Ihnen ein Firmenwagen sowie eine betriebliche Altersvorsorge geboten wird Oh?
Power BI) Erfahrung mit Datenmodellierung, ETL-Prozessen Ausgeprägtes analytisches und konzeptionelles Denken mit Verständnis für Geschäftsprozesse Kommunikationsstark und sicher im Umgang mit Stakeholdern aus Fach- und IT-Bereichen Wir bieten Ihnen Eine abwechslungsreiche und verantwortungsvolle Tätigkeit in einem kollegialen Team Gesundheitsmanagement, Teamevents, Sportveranstaltungen Persönliche und fachliche Weiterentwicklung Mitarbeit in Projekten zur digitalen Transformation Über uns Die GP Gruppe ist ein Kompetenznetzwerk von 66 Tochtergesellschaften und Betriebsteilen der GP Günter Papenburg AG.
Das ist die Aufgabe Mitwirken im innovativen Big Data Team: Unterstütze andere Fachbereiche durch Expertise in Data Analytics und erhalte Einblicke in Data Science und Data Visualization, um datengetriebene Entscheidungen voranzutreiben Beteiligen an Analytics Projekten: Arbeite interdisziplinär, um Produkte und interne Prozesse durch datengetriebene Insights zu optimieren, mit der Chance, echte geschäftliche Herausforderungen mit modernen Analysemethoden zu lösen Entwickeln von Analysemodellen: Nutze Data Science Tools wie PySpark oder Azure Synapse für komplexe Datenprobleme und gewinne wertvolle Einblicke Erstellen und Präsentieren von Reports: Gestalte mit Power BI visuell ansprechende Reports, die Analyseergebnisse verständlich machen, und teile deine Erkenntnisse mit internen Stakeholdern Kommunizieren von Ergebnissen: Präsentiere deine Analysen und Empfehlungen, um Entscheidungsprozesse zu beeinflussen und kommunikative Fähigkeiten zu stärken Das wünschen wir uns Laufendes Studium der Fachrichtung Informatik, Wirtschaftsinformatik, Mathematik oder vergleichbare Studiengänge Erste Erfahrungen in der Analyse, Transformation und Visualisierung von Daten von Vorteil Fachliche Kenntnisse im Bereich Cloud Lösungen wie Microsoft Azure vorteilhaft Gute Programmierkenntnisse, vorzugsweise in Python und SQL Selbstorganisierte, strukturierte und zielorientierte Arbeitsweise im Team Ein hohes Maß an Neugierde, um neue Erkenntnisse aus Daten zu generieren Gute Deutsch- und Englischkenntnisse in Wort und Schrift Weitere Details zur Stelle Gehalt: 2.117 €/Monat Beginn: ab April 2026 Bitte füge deiner Bewerbung folgende Unterlagen bei: Lebenslauf, aktueller Notenspiegel und Immatrikulationsbescheinigung sowie wenn vorliegend Arbeitszeugnisse und deine gültige Arbeits- und Aufenthaltserlaubnis
Du trittst selbstbewusst auf, kommunizierst gut und gerne und hast die konzeptionelle Fähigkeit, strukturiert und methodisch deine Projekte voranzubringen. Sehr gute Deutsch- und Englischkenntnisse runden dein Profil ab. It’s a match? Dann lerne uns kennen!
Design, build and optimize enterprise Tableau dashboards Develop reporting-friendly data models on Cloudera Data Platform (Hadoop) and Azure Databricks (Delta Lake, SQL Warehouses) Implement and tune SQL queries (Hive, Impala, Spark SQL, Databricks SQL) for performance, cost efficiency and concurrency Apply Tableau performance optimization strategies (extract vs live, push-down optimization, query tuning) Design and implement secure enterprise Tableau configurations, including row-level security aligned with role concepts Ensure compliance with IT security, data governance and regulatory requirements Collaborate with data platform teams, DataOps, IT security/compliance and controlling solutions Produce professional documentation: data models, dashboard specifications, data-source definitions, security concepts, test cases Conduct testing for accuracy, performance, access control and stability of dashboards and data models Provide knowledge transfer, coaching and structured handover to internal teams Strong hands-on experience with Tableau Desktop and Tableau Server/Cloud in enterprise environments Proven ability to build management-ready dashboards for finance/controlling or other regulated industries Practical experience with Cloudera Data Platform, Hadoop ecosystems, and Azure Databricks integrations Advanced SQL skills across Hive, Impala, Spark SQL, Databricks SQL Solid understanding of Delta Lake, parquet/ORC formats, and BI-oriented data modeling principles Experience implementing row-level security and with enterprise BI solutions Strong knowledge of performance optimization in Tableau, Hadoop and Databricks environments Ability to operate in regulated financial environments with security, compliance and data governance constraints Excellent communication and documentation skills in English International client Remote option Ihr Kontakt Ansprechpartner Eliška Stejskalová Referenznummer 864486/1 Kontakt aufnehmen E-Mail: eliska.stejskalova@hays.at Anstellungsart Freiberuflich für ein Projekt
Design, build and optimize enterprise Tableau dashboardsDevelop reporting-friendly data models on Cloudera Data Platform (Hadoop) and Azure Databricks (Delta Lake, SQL Warehouses)Implement and tune SQL queries (Hive, Impala, Spark SQL, Databricks SQL) for performance, cost efficiency and concurrencyApply Tableau performance optimization strategies (extract vs live, push-down optimization, query tuning)Design and implement secure enterprise Tableau configurations, including row-level security aligned with role conceptsEnsure compliance with IT security, data governance and regulatory requirementsCollaborate with data platform teams, DataOps, IT security/compliance and controlling solutionsProduce professional documentation: data models, dashboard specifications, data-source definitions, security concepts, test casesConduct testing for accuracy, performance, access control and stability of dashboards and data modelsProvide knowledge transfer, coaching and structured handover to internal teams Strong hands-on experience with Tableau Desktop and Tableau Server/Cloud in enterprise environmentsProven ability to build management-ready dashboards for finance/controlling or other regulated industriesPractical experience with Cloudera Data Platform, Hadoop ecosystems, and Azure Databricks integrationsAdvanced SQL skills across Hive, Impala, Spark SQL, Databricks SQLSolid understanding of Delta Lake, parquet/ORC formats, and BI-oriented data modeling principlesExperience implementing row-level security and with enterprise BI solutionsStrong knowledge of performance optimization in Tableau, Hadoop and Databricks environmentsAbility to operate in regulated financial environments with security, compliance and data governance constraintsExcellent communication and documentation skills in English International clientRemote option Ihr Kontakt Ansprechpartner Eliška Stejskalová Referenznummer 864486/1 Kontakt aufnehmen E-Mail: eliska.stejskalova@hays.at Anstellungsart Freiberuflich für ein Projekt
Registrieren Sie sich und profitieren Sie von interessanten und passenden Positionen und Projekten. Wir freuen uns auf Sie. Mein Arbeitgeber Ich suche für meinen Kunden aus der Health Care Branche einen Controller (m/w/d) in Göttingen Du sorgst dafür, dass unsere Zahlen immer sitzen – egal ob Monatsabschluss, Jahresabschluss, Budgetplanung oder ForecastsBei den Budgetrunden mit den Kostenträgern bist du vorne mit dabei: Du bereitest alles vor, verhandelst souverän und hast Fallpauschalen, individuelle Entgelte und Zusatzentgelte fest im GriffUnsere Führungskräfte verlassen sich auf dich: Du lieferst ihnen verständliche, relevante Analysen – vor allem zu medizinischen SachkostenKostenträgerrechnung und Deckungsbeiträge?
Definiere, analysiere und monitore die KPIs zur Bewertung unserer Warehouse Prozesse. Arbeite an internationalen Projekten und sei dein Ansprechpartner für nationale Bereiche. Das bringst du mit Du hast ein Studium in Wirtschaftsingenieurwesen, (Wirtschafts )Informatik oder einem vergleichbaren Bereich abgeschlossen.
Bei uns können Sie praktische Erfahrungen sammeln und an innovativen Projekten im Bereich Data Science mitarbeiten, um KSB-Dienstleistungen und -Produkte zu verbessern. Woran Sie arbeiten werden: Entwicklung und Testen neuer Algorithmen, Modelle und Methoden basierend auf maschinellem Lernen oder anderen Techniken in Zusammenarbeit mit dem Data Science Team Evaluierung und Optimierung von Algorithmen und Modellen, Einbringen innovativer Ideen und neuer Methoden ins Data Science Team, Vorbereitung und Prozessieren von Rohdaten zum Erstellen von Modellen Durchführung von Analysen und Präsentation der Ergebnisse vor dem Data Science Team, Entwicklung von qualitativ hochwertigem Code nach dem "Clean code”-Prinzip und KSB-Standards Perfekt vorbereitet | Sie studieren im Bereich Mathematik, Statistik, Data Science, Informatik, Physik oder vglb.
Zur dauerhaften Verstärkung unseres Teams suchen wir Sie als IT Projektleiter [m/w/d] Ihre Aufgabe Sie übernehmen die Leitung von IT-Projekten im Bereich Intralogistik mit Schwerpunkt auf Warehouse Management Systemen (WMS) und Warehouse Control Systemen (WCS). Sie planen, steuern und kontrollieren Projekte über alle Phasen hinweg – von der Konzeption bis zum Go-Live.
Konzeption, Implementierung und Optimierung einer zukunftsorientierten SAP-BI-UmgebungAufbau und Weiterentwicklung eines globalen Data-Warehouse-Konzepts auf Basis moderner SAP-TechnologienBeratung interner Stakeholder bei technischen Fragestellungen, Lösungsdesign und Projektumsetzung rund um BI-Lösungen im SAP-UmfeldPrüfung, Planung und Umsetzung neuer Anforderungen an verschiedene SAP-Applikationen Eigenständige Übernahme von interdisziplinären Projekten Abgeschlossenes Studium der (Wirtschafts-)Informatik, Ausbildung im IT-Umfeld oder vergleichbare QualifikationFundierte Erfahrung in der Konzeption und Implementierung von BI-Lösungen im SAP-UmfeldSehr gute Kenntnisse in SAP Analytics Cloud und SAP Datasphere, idelerweise auf S/4 Hana Ausgeprägter Servicegedanke und Anwenderverständnis, sowie ausgeprägte Kommunikationsfähigkeit Verhandlungssichere Deutsch- und gute Englischkenntnisse Eine unbefristete Festanstellung bei einem krisensicheren UnternehmenEine 35-Stunden-Woche und ÜberstundenausgleichBis zum 100% remote workUrlaubs- und WeihnachtsgeldJährliche Gewinnbeteiligung und Boni-ZahlungenModerne IT-Hard- und SoftwareBetriebliche AltersvorsorgeZahlreiche Mitarbeiter-Benefits (u.a.
Aktive Mitwirkung bei der laufenden Systemoptimierung sowie der Umsetzung von Prozessverbesserungen mit dem Ziel der Effizienzsteigerung Sicherstellung eines reibungslosen Applikationsbetriebs und Kontaktperson im Störungsfall als Mitglied eines Expertenteams Leitende Funktion bei Implementierung, Optimierung und Erweiterung des Warehouse Management Systems (WMS) Administration von Datenbanken und Anwendungen im Bereich der IT-gestützten Logistik Zentrale Administration der IT-Hardware im Logistikbereich Implementierung und Betreuung von Standardreports und Adhoc-Abfragen Mitarbeit an Warehouse- und Logistik-Projekten Erstellung und Pflege der Systemdokumentation Mitarbeit und Unterstützung des 1st & 2nd Level Support (Aufnahme, Erfassung, Kategorisierung und Priorisierung von Tickets Management und Verwaltung von Hardware Dokumentation, Wartung und Pflege bestehender Netzwerkinfrastruktur erfolgreich abgeschlossenes Informatik-Studium, oder Abschluss einer Ausbildung zum / zur Fach-informatiker/in, oder abgeschlossene Ausbildung im Bereich Logistik mit hoher IT-Affinität Erfahrung in der Datenbankadministration – speziell mit MSSQL Idealerweise Kenntnisse im Umgang mit den Programmen von Viastore Systems Kenntnisse Citrix Infrastruktur, Netzwerktechnik und Netzwerkinfrastrukturen Gute kommunikative Fähigkeiten, speziell im fachlichen Austausch Erfahrungen im Projektmanagement sowie Affinität zu technischen Prozessen / Systemen Fließendes Deutsch und sehr gute Englischkenntnisse in Wort und Schrift Die Bereitschaft zur Arbeit in einer globalen IT-Organisation strukturierte, analytische und eigenständige Arbeitsweise Reisebereitschaft – die Einarbeitung wird größtenteils in der Zentrale stattfinden 30 Tage Urlaub Leistungsgerechte Bezahlung 13.
Maintain and troubleshoot data integration pipelines to ensure stable data flow into AI and analytics systems Support model development by assisting with training, validation, and optimization of machine learning workflows Conduct data analysis to extract insights and provide clear reports supporting R&D research questions Solve technical challenges related to data access, pipeline performance, and software limitations Ensure continuity of ongoing projects by aligning closely with the core team and delivering on timelines Perform image analysis and prepare datasets required for scientific and ML use cases Manage and improve ETL processes to ensure data quality, structure, and availability Document workflows, pipeline changes, and analytical steps to ensure clarity and reproducibility Academic background in computer science, data science, engineering, or a related quantitative field Strong proficiency in Python with expertise in scientific and analytical libraries Skilled in SQL and working with relational databases Understanding of ETL concepts and practical experience working with data pipelines Solid foundation in machine learning principles and model lifecycle Ability to perform image analysis for scientific or research applications Strong communication and interpersonal skills with the ability to collaborate in a technical team Independent, structured problem-solver with a commitment to clear documentation and FAIR data practices Opportunity to contribute directly to active R&D projects with immediate real-world impact Hands-on involvement in AI, machine learning, and data integration challenges in a scientific environment Close collaboration with a small, highly skilled technical team Ihr Kontakt Referenznummer 863771/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
Maintain and troubleshoot data integration pipelines to ensure stable data flow into AI and analytics systemsSupport model development by assisting with training, validation, and optimization of machine learning workflowsConduct data analysis to extract insights and provide clear reports supporting R&D research questionsSolve technical challenges related to data access, pipeline performance, and software limitationsEnsure continuity of ongoing projects by aligning closely with the core team and delivering on timelinesPerform image analysis and prepare datasets required for scientific and ML use casesManage and improve ETL processes to ensure data quality, structure, and availabilityDocument workflows, pipeline changes, and analytical steps to ensure clarity and reproducibility Academic background in computer science, data science, engineering, or a related quantitative fieldStrong proficiency in Python with expertise in scientific and analytical librariesSkilled in SQL and working with relational databasesUnderstanding of ETL concepts and practical experience working with data pipelinesSolid foundation in machine learning principles and model lifecycleAbility to perform image analysis for scientific or research applicationsStrong communication and interpersonal skills with the ability to collaborate in a technical teamIndependent, structured problem-solver with a commitment to clear documentation and FAIR data practices Opportunity to contribute directly to active R&D projects with immediate real-world impactHands-on involvement in AI, machine learning, and data integration challenges in a scientific environmentClose collaboration with a small, highly skilled technical team Ihr Kontakt Referenznummer 863771/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
Konzeption, Implementierung und Optimierung einer zukunftsorientierten SAP-BI-Umgebung Aufbau und Weiterentwicklung eines globalen Data-Warehouse-Konzepts auf Basis moderner SAP-Technologien Beratung interner Stakeholder bei technischen Fragestellungen, Lösungsdesign und Projektumsetzung rund um BI-Lösungen im SAP-Umfeld Prüfung, Planung und Umsetzung neuer Anforderungen an verschiedene SAP-Applikationen Eigenständige Übernahme von interdisziplinären Projekten Abgeschlossenes Studium der (Wirtschafts-)Informatik, Ausbildung im IT-Umfeld oder vergleichbare Qualifikation Fundierte Erfahrung in der Konzeption und Implementierung von BI-Lösungen im SAP-Umfeld Sehr gute Kenntnisse in SAP Analytics Cloud und SAP Datasphere, idelerweise auf S/4 Hana Ausgeprägter Servicegedanke und Anwenderverständnis, sowie ausgeprägte Kommunikationsfähigkeit Verhandlungssichere Deutsch- und gute Englischkenntnisse Eine unbefristete Festanstellung bei einem krisensicheren Unternehmen Eine 35-Stunden-Woche und Überstundenausgleich Bis zum 100% remote work Urlaubs- und Weihnachtsgeld Jährliche Gewinnbeteiligung und Boni-Zahlungen Moderne IT-Hard- und Software Betriebliche Altersvorsorge Zahlreiche Mitarbeiter-Benefits (u.a.
Der Einstieg in das Data Science & Advanced Analytics Team bietet die Möglichkeit, mit großen und komplexen Daten und Methoden in einem dynamischen, sich ständig verändernden Umfeld zu arbeiten und internationale Kunden zu unterstützen. Als Teil unseres Teams erwarten Sie spannende internationale Projekte mit attraktiven Entwicklungsperspektiven. Warum bei uns einsteigen? Wer zu uns kommt, wird Teil eines anerkannten globalen Marktführers, der weiterhin bereit ist, den Status quo herauszufordern, um die Patientenversorgung zu verbessern.
DIES SIND IHRE AUFGABEN: Ganzheitliche Begleitung von BI / Data Projekten: von der Anforderungsaufnahme über Umsetzung und Tests bis zur ProduktivsetzungAnalyse und Aufbereitung von Rohdaten, Entwicklung von Datenmodellen sowie Visualisierung aussagekräftiger InformationenEinsatz von Qlik Sense mit Schwerpunkt auf Data Mining und Data Analytics in Bereichen wie Produktion, Vertrieb, Logistik und ProduktmanagementAnbindung und Nutzung von Datenquellen aus den ERP-System SAP zur Gewährleistung konsistenter AnalysenOptimierung der Datenqualität und Beratung internationaler Fachbereiche zur effektiven Nutzung von Datenanalyse-ToolsÜbernahme von (Teil-)Projektleitungen sowie Koordination interner IT-Ressourcen, externer Dienstleister und FachabteilungenUser Support und Schulungen in Deutsch (Sprache am Firmensitz!)
Transformation der Reporting-Landschaft: Du begleitest die weitere Transformation unserer bestehenden Reporting-Landschaft hin zu state-of-the-art Power BI Reporting SQL-Datenabfragen und -Reports: Du nutzt Deine fundierten SQL-Kenntnisse für effiziente Datenabfragen und die Erstellung darauf basierender Reports Datenmodellierung: Gemeinsam mit Deinem Team bist Du verantwortlich für die fachliche (Weiter-)Entwicklung von Datenmodellen in unserer bestehenden Systemlandschaft Aufbau und Weiterentwicklung des Data Management Systems: Du wirkst maßgeblich am Aufbau und an der Weiterentwicklung des Data Management Systems und der zugehörigen Prozesse mit Datenqualität und -konsistenz: Du stellst sicher, dass Informationen und Daten im Unternehmen korrekt und konsistent angelegt und gepflegt werden Operative Lösungen und Data Governance: Du entwickelst operative Lösungen zur Verbesserung der Datenqualität in unserem Unternehmen und entwickelst die dahinterliegende Governance aktiv weiter Ansprechpartner für Fachbereiche: Du unterstützt Deine direkten Controlling-Kollegen bei der Beschaffung und Analyse von Daten und fungierst als zentraler Ansprechpartner für andere Fachabteilungen Ein erfolgreich abgeschlossenes Studium der Betriebswirtschaftslehre, Mathematik, Wirtschaftsinformatik, Informatik oder eines vergleichbaren Studiengangs mit Schwerpunkt Data Analytics, Data Science oder Data Management Mehrjährige, einschlägige Berufserfahrung im Data Management oder im Bereich Data Analytics, idealerweise im Finanzdienstleistungs- oder Leasing-Umfeld Nachweislich sehr gute und praxiserprobte Kenntnisse in der Entwicklung, Implementierung und Wartung von Power BI Reports und Dashboards (DAX, Power Query) Profunde und anwendungsbereite Kenntnisse in SQL für komplexe Datenabfragen, Datenmanipulation und die Arbeit mit relationalen Datenbanken Tiefgehendes Verständnis und praktische Erfahrung in der Konzeption und Optimierung von Datenmodellen, Datenstrukturen und ETL-Prozessen Mehrjährige Erfahrung in der Definition, Analyse und Weiterentwicklung von Prozessen Sehr gute Kenntnisse in Microsoft Excel, insbesondere Power Query sowie Microsoft Power BI Erfahrung im Umgang mit Master-Data-Management- und Data-Governance-Tools Sie profitieren von dem exklusiven Zugang zu interessanten Unternehmen und spannenden Projekten in Zusammenarbeit mit Hays als einem soliden und stabilen Partner Wir geben Ihnen wertvolle Tipps und Feedback zu Ihren Bewerbungsunterlagen und Vorstellungsgesprächen Wir erstellen ein Bewerberprofil mit Ihren Stärken und Potentialen und sorgen dadurch für eine hohe Vermittlungsquote Individuelle Rundum-Betreuung: Unterstützung in der kompletten Bewerbungsphase Ihr Kontakt Referenznummer 862723/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Transformation der Reporting-Landschaft: Du begleitest die weitere Transformation unserer bestehenden Reporting-Landschaft hin zu state-of-the-art Power BI ReportingSQL-Datenabfragen und -Reports: Du nutzt Deine fundierten SQL-Kenntnisse für effiziente Datenabfragen und die Erstellung darauf basierender ReportsDatenmodellierung: Gemeinsam mit Deinem Team bist Du verantwortlich für die fachliche (Weiter-)Entwicklung von Datenmodellen in unserer bestehenden SystemlandschaftAufbau und Weiterentwicklung des Data Management Systems: Du wirkst maßgeblich am Aufbau und an der Weiterentwicklung des Data Management Systems und der zugehörigen Prozesse mitDatenqualität und -konsistenz: Du stellst sicher, dass Informationen und Daten im Unternehmen korrekt und konsistent angelegt und gepflegt werdenOperative Lösungen und Data Governance: Du entwickelst operative Lösungen zur Verbesserung der Datenqualität in unserem Unternehmen und entwickelst die dahinterliegende Governance aktiv weiterAnsprechpartner für Fachbereiche: Du unterstützt Deine direkten Controlling-Kollegen bei der Beschaffung und Analyse von Daten und fungierst als zentraler Ansprechpartner für andere Fachabteilungen Ein erfolgreich abgeschlossenes Studium der Betriebswirtschaftslehre, Mathematik, Wirtschaftsinformatik, Informatik oder eines vergleichbaren Studiengangs mit Schwerpunkt Data Analytics, Data Science oder Data ManagementMehrjährige, einschlägige Berufserfahrung im Data Management oder im Bereich Data Analytics, idealerweise im Finanzdienstleistungs- oder Leasing-UmfeldNachweislich sehr gute und praxiserprobte Kenntnisse in der Entwicklung, Implementierung und Wartung von Power BI Reports und Dashboards (DAX, Power Query)Profunde und anwendungsbereite Kenntnisse in SQL für komplexe Datenabfragen, Datenmanipulation und die Arbeit mit relationalen DatenbankenTiefgehendes Verständnis und praktische Erfahrung in der Konzeption und Optimierung von Datenmodellen, Datenstrukturen und ETL-ProzessenMehrjährige Erfahrung in der Definition, Analyse und Weiterentwicklung von ProzessenSehr gute Kenntnisse in Microsoft Excel, insbesondere Power Query sowie Microsoft Power BIErfahrung im Umgang mit Master-Data-Management- und Data-Governance-Tools Sie profitieren von dem exklusiven Zugang zu interessanten Unternehmen und spannenden Projekten in Zusammenarbeit mit Hays als einem soliden und stabilen PartnerWir geben Ihnen wertvolle Tipps und Feedback zu Ihren Bewerbungsunterlagen und VorstellungsgesprächenWir erstellen ein Bewerberprofil mit Ihren Stärken und Potentialen und sorgen dadurch für eine hohe VermittlungsquoteIndividuelle Rundum-Betreuung: Unterstützung in der kompletten Bewerbungsphase Ihr Kontakt Referenznummer 862723/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Unbefristeter Arbeitsvertrag Einsatz bei renommierte Kunden/ Weltmarktführer Betreuung vom Bewerbungsgespräch bis zur Einstellung Ihre Aufgaben: Beratung und Unterstützung der Mitarbeiter weltweit in Bezug auf Einsatzmöglichkeiten, Leistungsfähigkeit und optimale Nutzung von vorhandenen Datenanalyse-Tools Unterstützung bei der Analyse und Verbesserung der Datenqualität Verantwortung für die Aufnahme, Bewertung und Festlegung des Leistungsumfanges im Bereich Data Mining und Data Analytics Implementierung, Test, Anwenderabnahme, Dokumentation und Produktivsetzung von Anforderungen im Bereich Data Mining und Data Analytics Identifizierung der entsprechenden Rohdaten, Design der notwendigen Datenmodelle und Automatisierung der Umwandlung dieser Rohdaten in entscheidungsrelevante Informationen Unterstützung bei der Auswahl neuer Softwarelösungen durch Erstellung von Lasten- /Pflichtenheften und Evaluierungsmatrizen sowie durch fachliche Bewertung der Angebote Übernahme der Projekt- bzw. Teilprojektleitung in internationalen Projekten im Bereich Data- / Process Mining, Data Analytics und maschinelles Lernen Koordination und Steuerung von internen IT-Ressourcen, externen Partnern und Mitarbeitern der Fachabteilung Mitarbeit in Projekten außerhalb des eigenen Verantwortungsbereichs bei Bedarf Ihr Profil: Erfolgreich abgeschlossenes Studium aus dem Bereich Informationstechnologie, Data Science oder eine gleichwertige Ausbildung Mehrjährige Erfahrung im Bereich Qlik Sense Entwicklung Mehrjährige Berufserfahrung als Projektleiter oder Consultant, idealerweise in einem produzierenden Unternehmen (z.B.
Das machst du Als (Senior) Data Engineer (all genders) gestaltest du unsere BI & Analytics-Projekte aktiv mit und entwickelst diese fachlich und inhaltlich weiter. Entwicklung und Konzeptionierung: Du entwickelst auf Basis aktueller Methoden und Technologien auftragsbezogene BI- und Analytics-Lösungen, die auf individuelle Kundenanforderungen zugeschnitten sind.
Arbeitsort: Böblingen Ihre Aufgaben Übergreifende Abstimmung zur Entwicklung eines Datenökosystems für die gesamte Supply Chain Unterstützung und Beratung beim Einsatz von innovativen Digitalisierungstechnologien (Data Analytics, Cloud, …) Steuerung des komplexen Umsetzungsprozesses bis zur Realisierung und Erfolgsabsicherung der erarbeiteten Digitalisierungslösungen Anwendung von agilen Methoden, wie bspw. Design Thinking oder Scrum im Rahmen von Projekten/Workshops Ihr Profil Abgeschlossenes Studium der Wirtschaftsinformatik, Wirtschaftsingenieurwesen, Wirtschaftswissenschaften, Mathematik, Informatik, Ingenieurwissenschaften oder Vergleichbares Idealerweise erste praktische Erfahrungen in Digitalisierungsprojekten, Data Analytics, Cloudtechnologien Wir bieten Die Sicherheit eines großen, global tätigen Unternehmens mit hohen Standards für die Arbeitssicherheit Attraktive, der Qualifikation entsprechende Vergütung Unbefristete Anstellung Ein interessantes und vielseitiges Aufgabenfeld Individuelle Weiterbildung und Entwicklungsprogramme sowie vielfältige Karrieremöglichkeiten So geht’s weiter Bewerben Sie sich bitte direkt online, indem Sie auf den Button „JETZT AUF DIESE STELLE BEWERBEN“ klicken.
Als Senior Consultant übernimmst Du Verantwortung für anspruchsvolle Collibra-Projekte und entwickelst Dich perspektivisch zum fachlichen Lead für Data Governance & Collibra weiter. Du berätst Enterprise-Kunden zu zukunftsorientierten Data-Governance-Strategien von der strategischen Vision bis zur operativen Umsetzung.